正常的胎儿脂肪组织(AT)发育对于围产期健康至关重要。在或简单地脂肪以脂质形式存储能量。营养不良可能导致过度或耗尽的肥胖。尽管以前的研究表明,AT和围产期结局的量之间存在相关性,但缺乏定量方法,对AT的产前评估受到限制。使用磁共振成像(MRI),可以从两个点Dixon图像中获得整个胎儿的3D脂肪和纯水图像,以在脂质定量时启用。本文是第一个提出一种基于Dixon MRI的胎儿脂肪分割的深度学习方法的方法。它优化了放射科医生的手动胎儿脂肪描述时间,以生成带注释的培训数据集。它由两个步骤组成:1)基于模型的半自动胎儿脂肪分割,由放射科医生进行了审查和纠正; 2)使用在所得的注释数据集中训练的DL网络的自动胎儿脂肪分割。培训了三个DL网络。与手动分割相比,我们显示出分割时间(3:38小时至<1小时)和观察者变异性(0.738至0.906)的显着改善。用3D残差U-NET,NN-UNET和SWIN-UNETR TRONSERTER网络对24个测试用例进行自动分割,平均骰子得分分别为0.863、0.787和0.856。这些结果比手动观察者的变异性更好,并且与自动成人和小儿脂肪分割相当。一名放射科医生审查并纠正了六个新的独立案例,并使用最佳性能网络进行了细分,导致骰子得分为0.961,校正时间显着减少了15:20分钟。使用这些新颖的分割方法和短暂的MRI获取时间,可以在临床和大型果园研究中量化全身皮下脂质的单个胎儿。
translated by 谷歌翻译
Monocular Depth Estimation (MDE) is a fundamental problem in computer vision with numerous applications. Recently, LIDAR-supervised methods have achieved remarkable per-pixel depth accuracy in outdoor scenes. However, significant errors are typically found in the proximity of depth discontinuities, i.e., depth edges, which often hinder the performance of depth-dependent applications that are sensitive to such inaccuracies, e.g., novel view synthesis and augmented reality. Since direct supervision for the location of depth edges is typically unavailable in sparse LIDAR-based scenes, encouraging the MDE model to produce correct depth edges is not straightforward. In this work we propose to learn to detect the location of depth edges from densely-supervised synthetic data, and use it to generate supervision for the depth edges in the MDE training. %Despite the 'domain gap' between synthetic and real data, we show that depth edges that are estimated directly are significantly more accurate than the ones that emerge indirectly from the MDE training. To quantitatively evaluate our approach, and due to the lack of depth edges ground truth in LIDAR-based scenes, we manually annotated subsets of the KITTI and the DDAD datasets with depth edges ground truth. We demonstrate significant gains in the accuracy of the depth edges with comparable per-pixel depth accuracy on several challenging datasets.
translated by 谷歌翻译
本文提出了2022年访问量的挑战的最终结果。 OOV竞赛介绍了一个重要方面,而光学角色识别(OCR)模型通常不会研究,即,在培训时对看不见的场景文本实例的识别。竞赛编制了包含326,385张图像的公共场景文本数据集的集合,其中包含4,864,405个场景文本实例,从而涵盖了广泛的数据分布。形成了一个新的独立验证和测试集,其中包括在训练时出词汇量不超出词汇的场景文本实例。竞争是在两项任务中进行的,分别是端到端和裁剪的文本识别。介绍了基线和不同参与者的结果的详尽分析。有趣的是,在新研究的设置下,当前的最新模型显示出显着的性能差距。我们得出的结论是,在此挑战中提出的OOV数据集将是要探索的重要领域,以开发场景文本模型,以实现更健壮和广义的预测。
translated by 谷歌翻译
移动机器人用于工业,休闲和军事应用。在某些情况下,机器人导航解决方案仅依赖于惯性传感器,因此,导航解决方案会及时漂移。在本文中,我们提出了MORPI框架,这是一种移动机器人纯惯性方法。机器人没有以直线轨迹行进,而是以周期性运动轨迹移动,以实现峰值估计。以这种方式,使用经验公式来估计行进距离,而不是进行三个集成来计算经典惯性解决方案中的机器人位置。提出了两种类型的MORPI方法,其中一种方法基于加速度计和陀螺仪读数,而另一种仅基于陀螺仪。封闭形式的分析溶液被得出表明,与经典的纯惯性溶液相比,MORPI产生较低的位置误差。此外,为了评估所提出的方法,使用配备两种类型的惯性传感器的移动机器人进行现场实验。总共收集了143个轨迹,持续时间为75分钟并评估。结果表明使用我们的方法的好处。为了促进拟议方法的进一步开发,数据集和代码均可在https://github.com/ansfl/morpi上公开获得。
translated by 谷歌翻译
虽然神经语言模型往往对自然语言理解(NLU)任务进行令人惊讶的令人惊讶,但它们的优势和局限性仍然很差。因此,受控的合成任务是用于诊断模型行为的越来越重要的资源。在这项工作中,我们专注于讲故事的理解,是NLU系统的核心竞争力。然而,讲故事的主要综合资源是Babi基准,缺乏可控任务生成的这种系统机制。我们开发Dyna-Babi,一种动态框架,提供对Babi中的任务生成的细粒度控制。我们通过构建一个组成概括的三项新任务来展示我们的想法,这是来自原始基准的重要评估设置。我们测试了为BABI开发的专用模型以及最先进的预训练方法,发现这两种方法都解决了原始任务(> 99%的精度),并且在组成泛化设置中都没有成功地成功地成功,表示原始培训数据的局限性。我们探索了增加原始数据的方法,发现,尽管多样化培训数据比简单地增加数据集尺寸更有用,但它仍然不足以驾驶鲁棒成分泛化(具有<70%的复杂组合物的精度)。我们的结果强调了高度可控任务发生器通过模型和数据开发的良性循环创建强大的NLU系统的重要性。
translated by 谷歌翻译
我们遵守社交媒体上最近的行为,用户在其中故意从阿拉伯语字母中删除Consonantal Dots,以绕过内容分类算法。内容分类通常是通过微调预先训练的语言模型来完成的,这些语言模型已被许多自然语言处理应用程序采用。在这项工作中,我们研究了在“不所需的”阿拉伯语文本上应用预训练的阿拉伯语模型的效果。我们建议使用预先训练的模型支持所需的文本的几种方法,而无需额外培训,并在两种阿拉伯语自然语言处理下游任务中衡量其性能。结果令人鼓舞;在其中一个任务中,我们的方法显示了几乎完美的性能。
translated by 谷歌翻译
基于对高分辨率水下视觉调查的需求,本研究表明,现有的烟囱II自主水下车辆(AUV)适应完全悬停的AUV完全能够进行自主,近​​距离成像调查任务。本文重点介绍了AUV机动能力的增强(实现了改进的机动控制),实现了最新推进器分配算法的状态(允许最佳推进器分配和推进器冗余),以及在控制器之后的升级路径的开发以便于精确开发高分辨率成像任务所需的精致运动。为了便于车辆适应,开发了一种动态模型。提出了使用良好接受的公式,通过计算流体动力学和实际海上实验获得最初获得的动态模型系数的校准过程。还提出了耐压成像系统的房屋开发。该系统包括立体声相机和高功率闪电闪光灯,并作为专用AUV有效载荷装配。最后,在实际海床视觉调查任务中证明了平台的性能。
translated by 谷歌翻译
基于培训数据的各种统计特性,对基于统计数据(ML)技术概括或学习的基于统计数据。基础统计数据的假设导致理论或经验性能担保是培训数据的分布代表了生产数据分布。这个假设经常破裂;例如,数据的统计分布可能会改变。我们术语改变会影响ML性能“数据漂移”或“漂移”。许多分类技术对其结果计算了信心的衡量标准。该措施可能不会反映实际的ML表现。一个着名的例子是熊猫图片,正确地归类为距离约60 \%,但是当添加噪音时,它被错误地被归类为长臂猿,置信度高于99 \%。但是,我们在此报告的工作表明,分类器的置信度量可用于检测数据漂移的目的。我们提出了一种完全基于分类器建议标签的方法及其对其的信心,用于警告可能导致数据漂移的数据分布或功能空间变化。我们的方法标识在模型性能下劣化,并且不需要在生产中标记通常缺乏或延迟的生产中的数据。我们的三种不同数据集和分类器的实验证明了这种方法在检测数据漂移方面的有效性。这特别令人鼓舞,因为分类本身可能是或可能不正确,并且不需要模型输入数据。我们进一步探索了顺序变化点测试的统计方法,以便自动确定要识别漂移的数据量,同时控制误率(类型-1错误)。
translated by 谷歌翻译